摘要 随着用于辅助或自动化决策的人工智能 (AI) 的快速发展,其公平性尤其受到关注。为了通过以人为本的人工智能 (HCAI) 设计创建可靠、安全和值得信赖的系统,最近的努力已经为 AI 专家制作了用户界面 (UI),以调查 AI 模型的公平性。在本文中,我们提供了一种设计空间探索,不仅支持数据科学家,也支持领域专家调查 AI 公平性。以贷款申请为例,我们与贷款人员和数据科学家举行了一系列研讨会,以了解他们的需求。我们将这些需求实例化为 FairHIL,这是一个支持人机交互公平性调查的 UI,并描述了如何将此 UI 推广到其他用例。我们通过出声思考用户研究评估了 FairHIL。我们的工作有助于更好地设计以调查 AI 模型的公平性 — — 并更接近负责任的 AI。
主要关键词
![arXiv:2206.00474v1 [cs.AI] 2022 年 6 月 1 日PDF文件第1页](/bimg/7/789e7aecb5a3d11f40986d79dfaf01158f462343.webp)
![arXiv:2206.00474v1 [cs.AI] 2022 年 6 月 1 日PDF文件第2页](/bimg/e/eb90ff79bc79916e2cf41cf525abc5e191de034a.webp)
![arXiv:2206.00474v1 [cs.AI] 2022 年 6 月 1 日PDF文件第3页](/bimg/7/70fda57c83f07970836edf042eb64cafb7ca46fe.webp)
![arXiv:2206.00474v1 [cs.AI] 2022 年 6 月 1 日PDF文件第4页](/bimg/b/bc06a9cc22a3f613e14121fb85b796034c5a69d0.webp)
![arXiv:2206.00474v1 [cs.AI] 2022 年 6 月 1 日PDF文件第5页](/bimg/9/97d3d1d586a08281f98045ef129765786ac93499.webp)
